- pas de la chaîne
- сущ.
маш. шаг цепи
Французско-русский универсальный словарь. 2013.
Французско-русский универсальный словарь. 2013.
Chaine (mecanique) — Chaîne (mécanique) ██████████ … Wikipédia en Français
Chaîne (Mécanique) — ██████████ … Wikipédia en Français
Chaîne (mécanique) — Traduction à relire Roller chain → Chaîne (mécan … Wikipédia en Français
chaîne — (chê n ) s. f. 1° Espèce de lien de métal, formé d une suite d anneaux. Chaîne de fer. Chaîne pesante. Chargé de chaînes. Retenir quelqu un dans les chaînes. Briser ou rompre ses chaînes. Chien à la chaîne. Mettre à la chaîne. • Le peuple… … Dictionnaire de la Langue Française d'Émile Littré
Chaine De Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaine de Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaine de markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaîne De Markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… … Wikipédia en Français
Chaîne de Markov à espace d'états discret — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… … Wikipédia en Français
Chaîne de markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… … Wikipédia en Français
chaîne — [ ʃɛn ] n. f. • chaeine v. 1080; lat. catena I ♦ Suite d anneaux entrelacés (⇒ chaînon, 1. maille, maillon). A ♦ 1 ♦ Dispositif formé d anneaux entrelacés servant à orner. ⇒ chaînette, gourmette. Chaîne et médaille offertes au baptême. Chaîne d… … Encyclopédie Universelle